局部线性嵌入(LLE)是一种非线性光谱维度降低和多种学习方法。它有两个主要步骤,分别是线性重建和分别在输入空间和嵌入空间中的点的线性嵌入。在这项工作中,我们从随机的角度看线性重建步骤,其中假定每个数据点都以其线性重建权重为潜在因素。 LLE的随机线性重建是使用预期最大化解决的。我们表明,三种基本维度降低方法(即LLE,因子分析和概率主体组件分析(PCA))之间存在理论上的联系。 LLE的随机线性重建与因子分析和概率PCA相似。这也解释了为什么因子分析和概率PCA是线性的,而LLE是一种非线性方法。这项工作结合了两种降低维度的广泛方法,即光谱和概率算法。
translated by 谷歌翻译
这是关于生成对抗性网络(GaN),对抗性自身额外的教程和调查纸张及其变体。我们开始解释对抗性学习和香草甘。然后,我们解释了条件GaN和DCGAN。介绍了模式崩溃问题,介绍了各种方法,包括小纤维GaN,展开GaN,Bourgan,混合GaN,D2Gan和Wasserstein GaN,用于解决这个问题。然后,GaN中的最大似然估计与F-GaN,对抗性变分贝叶斯和贝叶斯甘甘相同。然后,我们涵盖了GaN,Infogan,Gran,Lsgan,Enfogan,Gran,Lsgan,Catgan,MMD Gan,Lapgan,Progressive Gan,Triple Gan,Lag,Gman,Adagan,Cogan,逆甘,Bigan,Ali,Sagan,Sagan,Sagan,Sagan,甘肃,甘肃,甘河的插值和评估。然后,我们介绍了GaN的一些应用,例如图像到图像转换(包括Pacchgan,Cyclegan,Deepfacedrawing,模拟GaN,Interactive GaN),文本到图像转换(包括Stackgan)和混合图像特征(包括罚球和mixnmatch)。最后,我们解释了基于对冲学习的AutoEncoders,包括对手AutoEncoder,Pixelgan和隐式AutoEncoder。
translated by 谷歌翻译
这是关于Boltzmann机器(BM),受限玻尔兹曼机器(RBM)和Deep信念网络(DBN)的教程和调查论文。我们从概率图形模型,Markov随机字段,Gibbs采样,统计物理学,ISING模型和Hopfield网络的必需背景开始。然后,我们介绍BM和RBM的结构。解释了可见变量和隐藏变量的条件分布,RBM中的GIBBS采样以生成变量,通过最大似然估计训练BM和RBM以及对比度差异。然后,我们讨论变量的不同可能的离散和连续分布。我们介绍有条件的RBM及其训练方式。最后,我们将深度信念网络解释为RBM模型的一堆。本文有关玻尔兹曼机器的论文在包括数据科学,统计,神经计算和统计物理学在内的各个领域都有用。
translated by 谷歌翻译
这是一份有关降低光谱维度降低方法统一的教程和调查论文,通过半决赛编程(SDP)学习内核学习,最大方差展开(MVU)或半芬特嵌入(SDE)及其变体。我们首先解释了如何将频谱降低方法降低方法统一为具有不同内核的内核主成分分析(PCA)。在距离矩阵方面,该统一可以解释为内核的本本函数学习或表示。然后,由于光谱方法被统一为内核PCA,因此我们说,让我们学习将数据的歧管展开至最大方差的最佳内核。我们首先简要介绍了SDP的内核学习来进行转导任务。然后,我们详细解释MVU。解释了使用最近的邻居图,通过课堂展开,Fisher Criterion和通过彩色MVU进行的各种监督MVU。我们还使用本征函数和内核映射解释了MVU的样本外扩展。最后,我们介绍了MVU的其他变体,包括尊重嵌入,放松的MVU和Landmark MVU的动作,以获取大数据。
translated by 谷歌翻译
这是针对非线性维度和特征提取方法的教程和调查论文,该方法基于数据图的拉普拉斯语。我们首先介绍邻接矩阵,拉普拉斯矩阵的定义和拉普拉斯主义的解释。然后,我们涵盖图形和光谱聚类的切割,该谱图应用于数据子空间。解释了Laplacian征收及其样本外扩展的不同优化变体。此后,我们将保留投影的局部性及其内核变体作为拉普拉斯征本征的线性特殊案例。然后解释了图嵌入的版本,这些版本是Laplacian eigenmap和局部保留投影的广义版本。最后,引入了扩散图,这是基于数据图和随机步行的方法。
translated by 谷歌翻译
随机邻居嵌入(SNE)是一种具有概率方法的多种学习和降低方法。在SNE中,每个点都被认为是所有其他点的邻居,并试图将这种概率保存在嵌入空间中。SNE认为在输入空间和嵌入空间中的概率都认为高斯分布。但是,T-SNE分别在这些空间中使用了Student-T和高斯分布。在本教程和调查论文中,我们解释了SNE,对称SNE,T-SNE(或Cauchy-Sne)和T-SNE具有一般自由度。我们还涵盖了这些方法的样本外扩展和加速度。
translated by 谷歌翻译
我们分析了含有100,000个补丁的结直肠癌(CRC)组织病理学数据集的离线和在线三胞胎挖掘的效果。我们认为在线和离线采矿中,极端,即与给定锚的最远和最近的补丁。尽管许多工作仅着眼于在线选择三胞胎(批次),但我们还研究了以离线方式训练之前的极端距离和邻居补丁的效果。我们分析了极端案例的嵌入离线距离与在线采矿的影响,包括易于正面的,批处理半硬度,批处理硬线挖掘,邻里组件分析损失,其代理版本和距离加权采样。我们还根据极端距离进行了在线方法,并根据数据模式进行了全面比较离线和在线挖掘绩效,并将离线挖掘解释为具有大型迷你批量大小的在线挖掘的可拖延概括。同样,我们讨论了不同结直肠组织类型的关系。我们发现,离线和在线挖掘方法在本研究中具有可比的特定体系结构(例如RESNET-18)具有可比性的性能。此外,我们发现包括不同的极端距离在内的各种情况是有希望的,尤其是在在线方法中。
translated by 谷歌翻译
这是一篇详细的教程论文,解释了Fisher判别分析(FDA)和内核FDA。我们从投影和重建开始。然后,涵盖了一维FDA子空间。FDA中解释了两种和多类的散射。然后,我们讨论散点等级和子空间的维度。还为解释FDA提供了一个现实的示例。然后,讨论了散射的可能奇异性,以引入强大的FDA。还比较了PCA和FDA方向。我们还证明FDA和线性判别分析是等效的。Fisher Forest也被引入是Fisher子空间的集合,可用于处理具有不同特征和维度的数据。之后,对具有两级和多类的一维子空间解释了内核FDA。最后,在AT&T Face数据集上进行了一些模拟,以说明FDA并将其与PCA进行比较。
translated by 谷歌翻译
无监督的域适应性(UDA)是一个至关重要的协议,用于迁移从标记的源域中学到的信息,以促进未标记的异质目标域中的实现。尽管UDA通常经过来自两个域的数据的共同培训,但由于对患者数据隐私或知识产权的担忧,访问标记的源域数据通常受到限制。为了避开此问题,我们提出了“现成的(OS)” UDA(OSUDA),针对图像分割,通过调整在源域中训练的OS进行调整到目标域,在适应中没有源域数据的情况下, 。为了实现这一目标,我们旨在开发新的批准归一化(BN)统计适应框架。特别是,我们通过指数型衰减策略逐渐适应了特定于域的低阶BN统计数据,例如平均值和差异,同时明确执行可共享的可共享高阶BN统计的一致性,例如,扩展和转移因子缩放和转移因子。 ,通过我们的优化目标。我们还通过低阶统计差异和缩放因素来自适应量化通道的可传递性,以评估每个通道的重要性。记忆一致的自我训练策略利用可靠的伪标签来稳定,有效的无监督适应。我们评估了基于OSUDA的跨模式和交叉型脑肿瘤分割和心脏MR到CT分割任务的框架。我们的实验结果表明,我们的内存一致性的OSUDA的性能优于现有的 - 源 - 删除的UDA方法,并且具有与源数据的UDA方法相似的性能。
translated by 谷歌翻译
由于各种物理降解因素和收到有限的计数,宠物图像质量需要进一步改进。去核扩散概率模型(DDPM)是基于分布学习的模型,它们试图根据迭代改进将正态分布转换为特定的数据分布。在这项工作中,我们提出并评估了基于DDPM的不同基于DDPM的方法,以进行PET图像Denoisising。在DDPM框架下,执行PET图像Denoising的一种方法是提供PET图像和/或先前的图像作为网络输入。另一种方法是将先前的图像作为输入提供,其中包含在改进步骤中的PET图像,这可以适合不同噪声水平的方案。 120 18F-FDG数据集和140个18F-MK-6240数据集用于评估所提出的基于DDPM的方法。量化表明,基于DDPM的框架包含PET信息可以比非本地平均值和基于UNET的DeNoising方法产生更好的结果。在模型中添加额外的先验可以帮助实现更好的性能,并进一步降低图像deNosing过程中的不确定性。在忽略宠物信息的同时,仅依靠先验先验会导致巨大的偏见。区域和表面量化表明,在推断过程中嵌入PET图像作为数据一致性约束的同时,使用MR作为网络输入可以达到最佳性能。总而言之,基于DDPM的PET图像Denoisising是一个灵活的框架,它可以有效地利用先前的信息并获得比非本地平均值和基于UNET的DeNoising方法更好的性能。
translated by 谷歌翻译